Der mitbestimmte Algorithmus

Ein erweiternder Ansatz zur Gestaltung der sogenannten „Künstlichen Intelligenz“

Welf Schröter (Mitbegründer und ehrenamtlicher Leiter des Personennetzwerkes „Forum Soziale Technikgestaltung“ (FST))

Im dreißigsten Jahr seines Bestehens stellt das „Forum Soziale Technikgestaltung“ (FST)[1] seine Impulse für einen erweiternden Ansatz zur Gestaltung der sogenannten „Künstlichen Intelligenz“ vor. Der FST-Weg wird unter dem Namen „Der mitbestimmte Algorithmus“ diskutiert. Die bisherigen Ergebnisse werden in den Diskurs mit Kolleginnen und Kollegen aus Betriebs- und Personalräten, aus Belegschaften und Gewerkschaften sowie in Dialoge mit Vertreterinnen und Vertretern aus Forschung, Technik, Wissenschaft, Wirtschaft, Verbänden und Kirchen eingebracht.[2] Ferner transferiert das FST seine Erfahrungen in die gewerkschaftliche Bildungsarbeit. Zu den zentralen Impulsen gehören die Inhalte der Begriffe „Nachholende Digitalisierung“, „Delegationstechnik“, „Algorithmische Steuerungs- und Entscheidungssysteme“, „Sich selbst verändernde Software-Werkzeuge“, „Antizipierende vorausschauende Arbeitsgestaltung“ und „Moderierte Spezifikationsdialoge“. Der Terminus „Künstliche Intelligenz“ erscheint in diesem Zusammenhang als wenig hilfreich, auch wenn der Begriff „KI“ medial sehr verbreitet ist. Er wird häufig irreführend verwendet.

Dreißig Jahre „Forum Soziale Technikgestaltung“

Wer sich seit dreißig Jahren mit der sozialen Gestaltung IT-gestützter Arbeitswelten befasst, steht dem momentanen Hype um die sogenannte „Künstliche Intelligenz“ zurückhaltend gegenüber. Nicht aus einer Technikablehnung und auch nicht aus einer modisch-überdrehten Technikbejahung entsteht diese Zurückhaltung, sondern auf Grund einer erfahrungsbasierten Differenzierung zwischen einer interessengeleiteten Marketingwelt einerseits und der Analyse des tatsächlich technisch Neuen andererseits. Wir sollten dem Hype eine aufgeklärte Ernüchterung entgegenstellen, um überzeugend gestaltete, an sozialen Standards orientierte Digitallösungen neuen Typs beschleunigt einführen zu können. Dazu sind oftmals die alten Rezepte und Wege nicht ausreichend. Es bedarf des Mutes, neue Schritte zu wagen. Es bedarf neuer Einschätzungen und entsprechend neuer Begrifflichkeiten. „Der mitbestimmte Algorithmus“ öffnet Türen zu überraschenden Initiativen.

Seit 1991 befasst sich das gewerkschaftliche und gewerkschaftsnahe Personennetzwerk „Forum Soziale Technikgestaltung“ beim DGB Baden-Württemberg mit mehr als 4.660 Frauen und Männern aus Betriebs- und Personalräten, Belegschaften und Gewerkschaften mit dem Wandel der Arbeitswelten durch den Einsatz von digitalen Werkzeugen und Infrastrukturen. Seitdem erfuhren und erfahren wir jeden Tag Transformation. Wandel und Transformation kommen nicht „heute“. Digitale Transformation gibt es mindestens seit Anfang der neunziger Jahre Tag für Tag. Zu fragen ist, welcher Umbau eine wirklich strukturelle Transformation darstellt.

In der Sprache des Marketings wurden in den zurückliegenden drei Jahrzehnten immer wieder das stets „Neue“, die ganz aktuelle technische „Revolution“, die „Transformation“ und die „Disruption“ als „Einschnitte“ auf Messen, Tagungen, Plattformen und mittels bunter Broschüren verbreitet. Was 1991 noch „Informatisierung der Arbeit“ hieß, trug 1995 ein das Paradies auf Erden versprechendes Code-Wort „Multimedia“ vor sich her. Ende der neunziger Jahre lautete das „Messe-Sprech“ „E-Commerce“, „E-Business“ und „E-Working“. Bald darauf kursierten Worte aus der Vertriebler-Sprache wie „Smart Factory“ oder „Smart Business“. Ein halbes Jahrzehnt später startete die von einem einflussreichen Industrie-Branchenverband gelenkte Kampagne zu „Industrie 4.0“, „Arbeit 4.0“ und „Bildung 4.0“. Wer heute Fördergelder einwerben will, sollte sich nicht mehr auf abgelegte „Vier-Null“-Anwendungen berufen, sondern muss gleich „KI“ als Chiffre einbringen. Mit dem Marketingzauber „KI“ wächst begleitend die von einer großen Wirtschaftszeitung propagierte marktliberale Kampagne des „New Normal“.

Als Schritt der unabdingbar eher nüchtern werdenden Herangehensweise sollten wir uns von diesen Marketing-Losungen abwenden, um zu hinterfragen, was außer Updates und Upgrades nun wirklich strukturell neu sein will. Um uns mit dem tatsächlich Neuen, das hinter dem unzureichenden Wort von der „Künstlichen Intelligenz“ steht, auseinandersetzen zu können, bedarf es auch anderer Begriffe.

Zudem sollten wir uns vor Augen führen, dass eine rationale Übersetzung des amerikanisch-englischen Kürzels „AI“ („Artificial Intelligence“) nicht „Künstliche Intelligenz“ lautet sondern „Künstliche Nachrichtenverwertung“ oder „Künstliche Nachbildung“. Das „AI“ hat mit dem europäischen gesellschaftswissenschaftlichen Verständnis von „Intelligenz“ nichts zu tun. In der Wissenschaft gibt es keine vereinbarte Definition für „Künstliche Intelligenz“. Die meisten der über hundert im Umlauf befindlichen vermeintlichen Definitionen stammen entweder aus interessengebundenen, wirtschaftlichen, politischen und zumeist technikfixierten Kontexten oder aus der produktzentrierten Welt der Presseabteilungen.

Ein klärend helfender Begriff: „Nachholende Digitalisierung“

Aus den Erfahrungen des „Forum Soziale Technikgestaltung“ in den Betrieben, Dienstleistungszentren und Verwaltungen lässt sich erkennen, dass in ungefähr zwei Dritteln bzw. drei Vierteln der Fälle von Technikimplementierungen lediglich digitale Techniken und Technologien eingeführt werden, die aus der Perspektive der Technikentwicklungen mehr als zehn, fünfzehn oder zwanzig Jahre alt sind. Ich nenne diesen Vorgang eine „Nachholende Digitalisierung“. Es werden digitale Lösungen eingebracht, deren Einführung längst hätten passieren müssen. Unter dem Marketing-Mantel von „Vier-Null“ oder „KI“ werden alte Modelle der alternierenden Telearbeit aus der Mitte der neunziger Jahre als „Arbeit 4.0“ oder vermeintliches „New Work“ oder „HomeOffice“ als „New Normal“ präsentiert. Elektronische Lernplattformen der späten neunziger Jahre finden in den Schulen als „Lernen 4.0“ Aufmerksamkeit. Ähnliches gilt für die in der Regel fast zwei Jahrzehnte alten Konzepte des „Internets der Dinge“, der „Agenten“, der „Angereicherten Realität“ (Augmented Reality) oder der „Smart Glasses“. Alte „Expertensysteme“ oder Cloud-Plattformen erscheinen plötzlich als Bestandteile des neuen „KI“-Himmels.

Um keine Missverständnisse zu erzeugen: Die „Nachholende Digitalisierung“ ist notwendig. Sie ist das Fundament für weitere Digitalisierungsstufen. Doch sollte man das nachträgliche Erledigen von einst weggeschobenen Hausaufgaben nicht mit digitaler Zukunft verwechseln. In den Betrieben, Dienstleistungszusammenhängen und Verwaltungen empfinden die betroffenen Kolleginnen und Kollegen die jetzt nachholend eingeführten digitalen Werkzeuge und Infrastrukturen subjektiv als neu. Deshalb benötigen sie zweifellos Hilfe, Unterstützung und Beratung. Jedoch sollten wir ehrlich sein und ein HomeOffice in Pandemiezeiten nicht als „Arbeit 4.0“, „New Work“ oder gar als „KI“-Anwendung bezeichnen. Das wäre selbst eine unredliche Marketingsprache.

Mit dem Begriff „Nachholende Digitalisierung“ lässt sich unterscheiden, ob derzeitige Implementierungsbemühungen nur die Vergangenheit aufheben oder ob sie wirklich auf zukünftige sozial-technische Innovationen zielen.

Kritik des unzureichenden Begriffes „Künstliche Intelligenz“

Wenn wir uns dem Phänomen der sogenannten „Künstlichen Intelligenz“ („KI“) zuwenden, müssen wir als erstes festhalten, dass es sich dabei um eine Entwicklung handelt, die ihren Ausgangspunkt im Zweiten Weltkrieg hatte. Im Widerstand der Alliierten gegen die Hitler-Diktatur haben sich in den vierziger Jahren Wissenschaftlerinnen und Wissenschaftler zusammengefunden, um durch neue Wege der Informationsverarbeitung dazu beizutragen, den Nationalsozialismus zu zerschlagen. Die heutige Debatte hat eine lange Vorgeschichte. Da sei beispielhaft an den von mir sehr geschätzten Tübinger Biokybernetiker Valentin Braitenberg erinnert, der in den achtziger Jahren des letzten Jahrhunderts sein professorales Engagement für „KI“ unter anderem mit dem Verweis auf das Trauma der Shoah begründete.[3]

Seit nun mindestens vier Jahrzehnten reden überzeugte „KI“-Anhänger (damit sind wirklich Männer gemeint) von den beiden Polen der „schwachen“ und „starken“ „KI“.[4] Was diese Unterscheidung betrifft, hat sich wenig verändert. Forschung und Anwendung stecken noch immer in den Kinderschuhen der „schwachen KI“.

Doch innerhalb der IT-Szene hat sich in den letzten zwanzig Jahren eine wichtige Differenzierung ergeben: nämlich der qualitative Wandel von der „regelbasierten KI“ zur „daten-getriebenen KI“. Während die „regelbasierte KI“ vor allem beispielhaft den Schachcomputer meint, der in exakt abgezirkelten mathematischen Umgebungen mit relativ begrenzten Daten-Inputs Ergebnisse präsentiert, stellt der „daten-getriebene“ Ansatz eine andere Denkwelt dar, die vor allem die Grundlage millionenfacher Dateninputs aus der Welt des „Big Data“ benötigt.

Mit der „daten-getriebenen KI“ verknüpfen die Drittmittelsuchenden vor allem die neuen Marketingbegriffe des sogenannten „Maschinellen Lernens“ oder des „Deeplearning“. Dieser „ML“ wird von einzelnen Interessengruppen die Fähigkeit zugeordnet, „ML“ könne „lernen“ und „denken“. Manche versteigen sich zu der skurrilen Sicht, dieses „ML“ erwerbe eine eigene „Ethik“, eine eigene „Moral“ und sei auf dem Weg, ein eigenes „Ich“ zu erzeugen. Diesem ideologisierten Ansatz gilt es mit Nüchternheit zu begegnen: Der Inhalt der sogenannten „daten-getriebenen KI“ ist pure Mathematik, brillante Mathematik. Aber nicht mehr. Von Menschen gemacht und von Menschen gestaltbar. Dieses algorithmisch Daten-Getriebene „denkt“ und „lernt“ nicht, hat kein „Ich“. Es folgt mathematischen und mathematisierenden Schritten. Dieses „ML“ ist nicht intelligent im gesellschaftswissenschaftlichen Sinne. Es verarbeitet Daten und Informationen nach mathematischen Impulsen. Wir dürfen uns in unserer Sprache nicht in eine Marketingwelt verleiten lassen.

Nehmen wir das Beispiel eines gängigen Satzes: „Der Algorithmus erlernt Wissen.“ Eine sol-che Formulierung geht bei Events, Talks und Messen schnell über die Lippen. Insider nicken sich zu und glauben, sich zu verstehen. Warum sind in diesem kurzen Satz drei Aussagen enthalten, die – (sozial-)wissenschaftlich betrachtet – unzutreffend sind? – Zum einen ist es nicht der Algorithmus, der hier vermeintlich „lernt“. Es ist der Algorithmus zusammen mit der Zuführung qualitativ geprüfter validierter Daten. Nicht der Algorithmus sondern das algorithmische System wäre zu nennen. Zum anderen stellt der algorithmische Prozess kein „Lernen“ dar sondern lediglich eine brillante mathematische und mathematisierende Informationsverarbeitung. Zum dritten „lernt“ der Algorithmus kein „Wissen“. Das algo-rithmische System verarbeitet Daten und legt es der nächsten Stufe der optimierenden ver-tiefenden Daten- bzw. Informationsverarbeitung zugrunde. Daten lassen Daten entstehen. Dies ist kein Wissen, denn Wissen entsteht durch Reflexion, Erfahrung und Handlungspraxis. Algorithmische Systeme sind aber nicht erfahrungs- und nicht reflexionsfähig.

Ein notwendiger neuer Begriff: „Delegationstechnik“

Die gewerkschaftlichen Debatten der letzten fünfzig Jahre zum Thema Technikgestaltung folg(t)en (grundsätzlich) dem Gedanken der „Assistenztechnik“. Sozial gut gestaltete Technik, die mitbestimmt eingeführt wird, kann idealerweise die Arbeit des Menschen entlasten und gesünder werden lassen. Assistenz zielt auf Unterstützung und will die „Handlungsträgerschaft Mensch“ stabilisieren. Man denke an die Betriebsratsforderungen nach Einführung von Robotertechnik zur Vermeidung gesundheitsgefährdender Überkopfarbeit im Automobilbau. Im Idealfall entscheidet ein Mensch, wann ein technischer Vorgang beginnt und wann er beendet wird. Ideal liegt die Handlungssouveränität beim Subjekt Mensch.

Im Rahmen des um die Jahrtausendwende von der damaligen Bundesregierung angestoßenen FuE-Programmes „Mensch-Technik-Interaktion in der Wissensgesellschaft“ trat ein verändertes Technikverständnis auf die arbeitsweltliche Bühne, das sich von der „Assistenztechnik“ abzugrenzen begann. Es war – vereinfacht ausgedrückt – die Idee, auf einen Softwarehaufen eine inhaltliche Vollmacht übertragen zu können. Mit der damals so benannten „Agententechnik“ mit „mobilen Agentenplattformen“ sollte ermöglicht werden, dass ein Softwarehaufen die Vollmacht erlangt, im Auftrag des Menschen hinter dessen Rücken rechtsverbindlich in Echtzeit gültige Transaktionen im virtuellen Raum (komplementär zum analogen Raum) durchzuführen.[5] Die „Handlungsträgerschaft Mensch“ sollte zur „Handlungsträgerschaft Softwaresystem“ werden. Diese Übertragung der Vollmacht auf ein Softwaresystem, dieses Delegieren von rechtsverbindlichen Vorgängen, bezeichne ich als „Vollmachtstechnik“ oder „Delegationstechnik“. Wir haben es mit einer neuen spannungsbeladenen Begriffsbeziehung zwischen „Assistenztechnik“ und „Delegationstechnik“ zu tun. Meines Erachtens stellt dieses Begriffspaar zur Einordnung von IT-Systemen eine bessere Sortierung dar als sich selbst überholende Marketingbegriffe wie etwa „Smart Factory“, „Industrie 4.0“ oder „KI“-Fabrik mit „ML“-Steuerung.

Ein korrigierender Begriff: „Algorithmisches Steuerungs- und Entscheidungssystem“

Nach der Kritik des „KI“-Begriffes und der Neuaufnahme des Wortes „Delegationstechnik“ fehlt der Blick auf die Seite der Software und die Beantwortung der Frage, was aus Gestaltungssicht tatsächlich neu ist.

Die mathematischen und mathematisierenden Software-Innovationen – unzureichend als „KI“ tituliert – bestehen ja in der Regel aus mindestens zwei Bausteinen: Zum einen aus der Spielregel der Datenverarbeitung (Algorithmus) und zum anderen aus der unermesslichen Menge an (hoffentlich validierten) Daten. Vereinfacht gesagt, bestehen die „daten-getriebenen“ Softwarelösungen aus dem Algorithmus und der zuzuführenden Datenmenge. Diese Verknüpfung bezeichne ich als „Algorithmisches Steuerungs- und Entscheidungssystem“. Diese nüchterne und unmodische Benennung trägt zur Entzauberung des zum Teil überladenen „KI“-Begriffes bei.

Ein überraschender Begriff: „Sich selbst verändernde Software-Werkzeuge“

Aus den Zeiten und Anwendungszusammenhängen der „Assistenztechnik“ haben wir uns ein sehr tradiertes Verständnis von Software behalten. Es handelt sich zumeist um starre Softwarelösungen, die auch bei zigtausendfacher Nutzung als Werkzeug unverwandelt bleiben. Natürlich gibt es Updates oder Upgrades, aber die Anwendung der Software bleibt im Kern stabil.

Unter dem Dach der „Delegationstechnik“ und der „Algorithmischen Steuerungs- und Entscheidungssysteme“ entstehen mehr und mehr Variationen von Software-Werkzeugen, die – vereinfacht ausgedrückt – sich durch Anwendung verändern. Ich bezeichne sie als „Sich selbst verändernde Software-Werkzeuge“.

Diese Systeme des vermeintlichen „Maschinellen Lernens“ können a) durch qualifizierte Datenverarbeitung ihre Leistungen – zum Beispiel in der Mustererkennung – durch Nutzung präzisieren. Andere Systeme können b) durch Datenzufuhr und entsprechende Verarbeitung ihre Prozesssteuerung „selbsttätig“ verändern, erweitern oder komplexer aggregieren. Die dritte Gruppe der „Sich selbst verändernde Software-Werkzeuge“ könnte c) in die Lage gebracht werden, ihren mitgegebenen Algorithmus „unterwegs“ selbst zu korrigieren bzw. zu wandeln. Während a) und b) in den Arbeitswelten Einzug hält, steht c) noch im Laborstatus.

Diese Qualität neuester Software-Systeme, sich als Werkzeug selbst verändern zu können, hat Auswirkungen auf die Art und Reihenfolge der partizipativen Technikgestaltung. Bei der Gestaltung der „Assistenztechnik“ und der somit in sich stabil bleibenden Werkzeuge, folgen wir im Kern immer noch dem Erfahrungsansatz von Oskar Negt. Wir probieren aus, experimentieren, bewerten, legen Regeln und Standards fest und verankern diese in Betriebs- bzw. Dienstvereinbarungen. Dabei versuchen wir reflektierend, diese Erfahrungen in die Entwicklung der nächsten Technikgeneration einzubringen. Das Erfahrungswissen der Arbeitnehmerinnen und Arbeitnehmer, ihr Prozesswissen und ihr intuitives Wissen legen wir der Gestaltung von sich selbst nicht verändernden „Assistenztechniken“ zugrunde.

Ein unabdingbarer Begriff: „Antizipierende vorausschauende Arbeitsgestaltung“

Mit der Erkenntnis der Ausdifferenzierungen von „Delegationstechnik“ und „Algorithmischen Steuerungs- und Entscheidungssystemen“ sowie der „Sich selbst verändernden Software-Werkzeuge“ ergibt aus der Arbeit des „Forum Soziale Technikgestaltung“ ein erweiterter Gestaltungsansatz. Die „Sich selbst verändernden Software-Werkzeuge“ müssen zu einem großen Teil vor (!) ihrer Implementierung, also vor ihrem „Start“ sozial gestaltet werden.

Ab einer bestimmten Stufe der software-technischen Veränderung bzw. Selbstveränderung sind die Systeme auch für IT-Expertenteams nicht mehr zähmbar. Die Dokumentierbarkeit der einzelnen informationstechnischen Verarbeitungsschritte sind bei komplexen Software-Werkzeugen nicht mehr gegeben und somit nicht mehr nachvollziehbar. Es gilt der Satz: „Wenn ich Dir ein solches Werkzeug in der Anwendung zeigen kann, ist es zu spät.“

Diese Perspektive bedeutet, dass wir die drei klassischen Ebenen der Einflussnahme wie a) parlamentarisch festgelegte Bundesgesetze (Betriebsverfassungsgesetz, Arbeitszeitgesetz etc.), b) Tarifvereinbarungen und c) Betriebs- und Dienstvereinbarungen um eine vierte Handlungsebene erweitern müssen. Erforderlich wird, dass wir unsere sozialen Standards und unsere gestalterischen Anforderungen auch zusätzlich direkt im „Algorithmischen Steuerungs- und Entscheidungssystem“ software-technisch verankern.

Dies wird auch unter anderem deshalb erforderlich sein, weil ein wesentlicher Teil der „Algorithmischen Steuerungs- und Entscheidungssysteme“ nicht nur innerhalb des Betriebes, des Dienstleistungsbereiches und der Verwaltung eingeführt werden. Ihre primäre Aufgabe wird sein, die zwischenbetrieblichen Beziehungen virtuell selbstverändernd zu steuern. Große global agierende Konzerne experimentieren in diese Richtung seit mehreren Jahren. Sie versuchen damit globale Wertschöpfungsketten und Wertströme automatisiert zu steuern.

Wir müssen also neben der Mitbestimmung in der vertikalen Wertschöpfungskette (innerbetrieblich) vor allem die Möglichkeiten der Mitbestimmung entlang der horizontalen Wertschöpfungsketten (zwischen Akteuren außerhalb der Betriebe) in den Blick nehmen. Das „Algorithmische Steuerungs- und Entscheidungssystem“ muss deshalb das arbeitsweltliche Anforderungsprofil in sich auf dem Weg der horizontalen Wertschöpfungskette mitnehmen.

Aus diesen Perspektiven heraus entstand die Idee „Der mitbestimmte Algorithmus“. Die Gestaltung „Algorithmischer Steuerungs- und Entscheidungssysteme“ und die Schaffung eines mitbestimmten Algorithmus benötigen auf der Seite der Betriebs- und Personalräte ein erweiterndes Konzept. Ich nenne es „Antizipierende vorausschauende Arbeitsgestaltung“. Es geht darum, vorabschätzen zu können, was ein algorithmisches System leisten kann und leisten darf und was nicht.

Antizipierendes Denken und präventives Handeln auf der Ebene des Algorithmus kommt somit in die bisherige gewerkschaftliche Technikgestaltungsarbeit als innovative Erweiterung hinzu.

Einen zentralen Baustein für die „Antizipierende vorausschauende Arbeitsgestaltung“ stellt die im FST erarbeitete Liste von dreißig generischen Kriterien zur Gestaltung und Zulassung „Algorithmischer Steuerungs- und Entscheidungssysteme“ dar. Diese ergeben ein Orientierungsraster bei der Konfrontation mit den neuen Systemen.[6]

Zu den dreißig generischen Kriterien gehören unter anderem folgende Anforderungen (Auszug):

  • Grundsätzlich hat zu gelten, dass in den Arbeits- und Berufswelten, in Betrieben, Dienstleistungszentren und Verwaltungen sowie in KMUs nur solche Software-Systeme Anwendung finden, die gestaltbar sind. Geschlossene und nicht gestaltbare Systeme verletzen die Mitbestimmung.
  • Bei der Gestaltung und dem Einsatz „autonomer“ und „selbstlernender“ Algorithmen und algorithmischer Entscheidungssysteme gilt der Vorrang menschlicher Entscheidungshoheit und menschlicher Aufsicht.
  • Bei der Gestaltung und dem Einsatz „autonomer“ und „selbstlernender“ Algorithmen und algorithmischer Entscheidungssysteme muss die Beherrschbarkeit der Systeme zu jedem einzelnen Zeitpunkt durch den Menschen gegeben sein. Kann diese Beherrschbarkeit nicht sichergestellt werden, so ist auf den Einsatz eines algorithmischen Systems zu verzichten.
  • Entscheidend ist das Recht einer Person, nicht einer ausschließlich auf einer automatisierten Verarbeitung beruhenden Entscheidung unterworfen zu werden, die ihr gegenüber rechtliche Wirkung entfaltet oder sie in ähnlicher Weise erheblich beeinträchtigt.
  • Grundsätzlich muss gelten, dass „autonome“ und „selbstlernende“ Algorithmen sowie algorithmische Entscheidungssysteme nur für Entscheidungen über Sachen und Sachmittel (Energie, Material, Heizung, Verkehr etc.) eingesetzt werden dürfen.
  • Grundsätzlich muss gelten, dass „autonome“ und „selbstlernende“ Algorithmen sowie algorithmische Entscheidungssysteme nicht über Menschen oder deren Leben Entscheidungen treffen dürfen.

Alle dreißig Kriterien mit den Erläuterungen wurden aus dem „Forum Soziale Technikgestaltung“ in der Publikation „Der mitbestimmte Algorithmus“ veröffentlicht.[7]

Es geht um die soziale Gestaltung „Algorithmischer Steuerungs- und Entscheidungssysteme“, um die Gestaltung algorithmischer, sich selbst verändernder Software-Systeme für die arbeitsweltlichen Vorgänge Analyse, Entscheidungsvorbereitung, Prozesssteuerung und Entscheidungsvollzug im Feld der „Assistenz- und Delegationstechnik“.

Der Traum der technikzentrierten Diskussion, man könne eine menschenleere, sich selbst steuernde industrielle Produktion schaffen, ist schon mit dem CIM-Debakel gescheitert. Mensch braucht Technik braucht Organisation. Erfolgreiche Innovationen entstehen durch die Kombination von technischen und sozialen Neuerungen, durch das Verknüpfen „harter“ und „weicher“ Wandlungsfaktoren.

Aus Sicht des „Forum Soziale Technikgestaltung“ gelingt der algorithmisch induzierte Wandel vor allem dann, wenn das in Menschen angehäufte implizite und explizite Erfahrungsprozesswissen mit dem software-technisch abgebildeten Fach- und Sachwissen auf gleicher Augenhöhe gehandhabt wird. Einseitigkeiten erbringen keinen dauerhaften Erfolg.

Ein zusätzlicher Praxisbegriff: „Moderierte Spezifikationsdialoge“

In diese Perspektive bringen wir aus der Arbeit des „Forum Soziale Technikgestaltung“ ein neues Element in den Gestaltungsprozess ein. Erforderlich ist ein Praxisbaustein, den ich als „Moderierte Spezifikationsdialoge“ bezeichne. Notwendig ist auf betrieblicher Ebene (Produktion, Dienstleistung, Verwaltung) ein zu verankernder transparent strukturierter Aushandlungsprozess, in dem die Beschäftigten und ihre Beschäftigtenvertretungen auf der Basis ihrer arbeitsweltlichen Prozesserfahrungen ihre Anforderungen an „Algorithmische Steuerungs- und Entscheidungssysteme“ artikulieren und in hohem Maße präzisieren.

Die Beschäftigtenseite muss ihre Anforderungen nicht in der Sprache der Informatik oder der Programmierung ausdrücken, sie muss nicht in englischen Vokabeln und Abkürzungen glänzen. Die „Über-Setzung“ der aus Sicht der Beschäftigten interessengeleiteten Erfahrungswelten ist Aufgabe der IT-Seite. Sie erstellt Module, MockUps und Prototypen, die dann von der Beschäftigtenseite korrigiert, weitergetrieben und irgendwann „abgenommen“ werden. Solcherart extern moderierter Spezifikationsverläufe verankern die Anforderungen der kommenden Anwenderinnen und Anwender in frühester Phase vor(!) der Implementierung in den kommenden Softwaresystemen neuester mathematischer Generationen.

Mit dem Instrument der „Moderierten Spezifikationsdialoge“ können wir heute gedanklich an einen Ansatz anknüpfen, der noch aus der frühen und wenig digitalisierten Arbeitswelt stammt. Udo  Blum vom Hauptvorstand der IG Metall, Abt. Automation/Technologie/Humanisierung der Arbeit hatte in den achtziger Jahren in der Debatte über die „Fabrik der Zukunft“ ein eigenes Konzept verfochten: „»Technisch-soziale Pflichtenhefte« erarbeiten, um Arbeit und Technik vorausschauend zu gestalten“.[8]

Aus den Dialogen mit Vertreterinnen und Vertretern aus Unternehmen, Wirtschaft, Verbänden und der IT-Teams zeigt sich immer mehr, dass der Ansatz der Spezifikation grundsätzlich auf wachsende Zustimmung trifft. Denn diese „Moderierten Spezifikationsdialoge“ können es den Betrieben ersparen, teure nicht-nutzbare Technikruinen zu schaffen und zu finanzieren.

Auf der Seite der Beschäftigten und Beschäftigtenvertretungen bedarf es dafür eine erweiterte Form der Beratung, Unterstützung und Assistenz. Dazu zählt auch das FST-Planspiel „BABSSY – BetriebsratsArbeit auf Basis Autonomer Software-SYsteme“.

Als arbeitsweltliche Seite müssen wir lernen, unsere Anforderungen so präzise wie möglich auszudrücken. Die bloße Forderung nach „ethischer Software“ ist viel zu allgemein. Was bedeutet es zum Beispiel, den Arbeits- und Gesundheitsschutz in entsprechende algorithmische Systeme für Arbeitende einer Abteilung oder einer Werkshalle einzubauen? Was genau soll geschützt werden? Welche Tätigkeiten sind zu überprüfen? Was darf „delegiert“ werden? Welche Interventionsmöglichkeiten hat der tätige Mensch als Subjekt der Arbeit?

Etablierung von belastbaren Erfahrungsdiskursen

Anlässlich des dreißigjährigen Bestehens des „Forum Soziale Technikgestaltung“ (1991–2021) wurde mit einer Veranstaltungsreihe über die gewerkschaftliche Seite hinaus ein Dialog mit anderen Interessensgruppen eröffnet. In Kooperation mit wirtschaftsnahen Akteuren wie „Allianz Industrie 4.0 Baden-Württemberg“, Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA, „Cyber Valley“, Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO sowie IT-Unternehmensnetzwerkes „Baden-Württemberg: connected“ sowie mit einem evangelischen Arbeitgeberverbund wurden Inputs zur Diskussion gestellt.[9]

Vorausgegangen waren FST-Jubiläums Präsentationen und Diskussionen mit Akteuren der IG Metall, des DGB, von ver.di und der Hans-Böckler-Stiftung („LaborA“). Zudem begannen Dialoge mit den INQA-Netzwerken „Offensive Mittelstand“ und „Offensive Gutes Bauen“ sowie mit dem INQA-Verbund „Das Demografie-Netzwerk“ sowie mit der BMAS-„Denkfabrik“. Mit Hilfe der Dialogpartner wurde ein Input in die „GPAI“, der „Global Partnership on Artificial Intelligence“, möglich. Der diskursive Weg wurde im Jahr 2021 anlässlich des FST-Jubiläums auch mit einer Reihe von Veranstaltungen vom Organisationen-Netzwerk „Sozialer Zusammenhalt in digitaler Lebenswelt“ unterstützt.

In seiner Jubiläumsgratulation ging der DGB-Bundesvorsitzende Reiner Hoffmann[10] auch auf das Projekt „Der mitbestimmte Algorithmus“ ein. Der Vorsitzende des DGB Baden-Württemberg Kunzmann unterstrich die Innovationskraft des „Forum Soziale Technikgestaltung“ im Hinblick auf das Vorhaben „Der mitbestimmte Algorithmus“. In seiner offiziellen Jubiläumsrede am 13. Oktober 2021 im Willi-Bleicher-Haus Stuttgart sagte er unter anderem:

[…] Heute im dreißigsten Jahr fordert das „Forum Soziale Technikgestaltung“ die Gewerkschaften erneut heraus. Seit rund fünf Jahren arbeitet das FST an einer neuen zusätzlichen Gestaltungsstrategie. Sie wird diskutiert unter dem Motto „Der mitbestimmte Algorithmus“. […] Neue digitale Möglichkeiten verlangen neue Lösungen. Die Kolleginnen und Kollegen im FST rufen uns auf, uns für ungewohnte Gedanken und Ansätze zu öffnen. Wir dürfen nicht hinter der Technikentwicklung herlaufen. Wir müssen den Anspruch erheben, steuernd einzugreifen. Das Projekt „Der mitbestimmte Algorithmus“ verlangt von Beschäftigtenvertretungen wie auch von den Gewerkschaften eine qualitative Erweiterung der bisherigen Interessens-, Betreuungs- und Beratungstätigkeiten. Wir müssen uns stärker einmischen. Soziale Technikgestaltung muss deutlicher im Fokus unseres Handelns liegen. Gestaltung heißt dabei, dass sich die Akteure auf gleicher Augenhöhe begegnen. […]

In einer Kooperation von IG Metall Heidelberg, dem Betriebsrätenetzwerk „ZIMT“ und „Forum Soziale Technikgestaltung“ wurde das von der Hans-Böckler-Stiftung geförderte Projekt „PROTIS-BIT“ („PROaktive Transferierbare InnovationsStrategien von Betriebsräten zur Beschäftigungssicherung auf der Basis ,Intelligenter‘“ Technologien – Empirische Studie zu Entwicklungspotenzialen und Gestaltungskompetenzen von Betriebsräten“) gestartet.

Parallel bringt das „Forum Soziale Technikgestaltung“ seine Impulse in das BMBF-Verbundvorhaben „Kompetenzzentrum KARL – Künstliche Intelligenz für Arbeit und Lernen in der Region Karlsruhe“ ein.

Der mit dem Leitmotiv „Der mitbestimmte Algorithmus“ hier vorgestellte Gestaltungsansatz des „Forum Soziale Technikgestaltung“ benötigt solidarische Kritik und engagierte Unterstützung. Er basiert auf der Vorstellung des öffentlichen Lernens und sozialer Phantasie. Er ist das Gegenteil einer technikzentrierten Debatte. Er ist Teil einer praktischen Kritik der einseitigen Herrschaft des Marktes. In Vorbereitung befindliche Referenzumsetzungen sollen den horizontalen empirischen Transfer zwischen Beschäftigtenvertretungen unterstützen.

Interessierte, Neugierige, solidarische Kritikerinnen und Kritiker sind eingeladen, sich an diesem Diskurs zu beteiligen.

Weiterführende Links

Impulse zur FST-Diskussion: www.blog-zukunft-der-arbeit.de

Publikationen aus der Arbeit des FST: http://www.blog-zukunft-der-arbeit.de/publikationen/

Video-Interview zum Projekt „Der mitbestimmte Algorithmus“: https://www.youtube.com/watch?v=-bsicrOUr0A

Video- und Audio-Dateien zur Arbeit des FST im Youtube-Kanal: https://www.youtube.com/channel/UClpzv79YDdPPzUQ8_MxEslQ/videos

[1] Das FST wurde am 7. Okt. 1991 in Stuttgart gegründet. Die Gründung wurde von dem damaligen DGB-Landesvorsitzenden Siegfried Pommerenke, dem damaligen IG Metall- Bezirksleiter Walter Riester, dem damaligen Vorsitzenden der GEW Baden-Württemberg Rainer Dahlem und von der damaligen ÖTV-Vorsitzenden Monika Wulf-Mathies unterstützt. Zu den späteren besonderen Vortragsgästen zählten u. a. die Wissenschaftlerinnen und Wissenschaftler Joseph Weizenbaum, Frieder Naschold, Hajo Braczyk, Hans-Jörg Bullinger, Jutta Rump, Ortwin Renn, Sabine Pfeiffer, Ralf Reichwald, Kira Stein, Constanze Kurz (IGM). Zum zehnjährigen Bestehen hielt Berthold Huber, Bezirksleiter der IG Metall Baden-Württemberg, die Festrede. Das FST arbeitet eng mit verschiedenen Gewerkschaften zusammen – mit IG Metall, ver.di, IG BCE, NGG, GEW, GdP, IG BAU und selbstverständlich mit dem DGB. Das „Forum Soziale Technikgestaltung“ wird als horizontales ehrenamtliches Netzwerk seit seiner Gründung ehrenamtlich geleitet sowie moderiert von Mit-Initiator Welf Schröter.

[2] Wer sich für die Arbeit des „Forum Soziale Technikgestaltung“ (FST) interessiert, kann den kostenfreien Newsletter beziehen. Bitte Mail an: schroeter@talheimer.de

[3] Ist die Bezeichnung „Künstliche Intelligenz“ sinnvoll? Siehe den Beitrag im Blog: http://www.blog-zukunft-der-arbeit.de/ist-die-bezeichnung-kuenstliche-intelligenz-sinnvoll/

[4] Siehe dazu die einseitige Technikerdefintion: https://ki.fhws.de/thematik/starke-vs-schwache-ki-eine-definition/

[5] Manfred Weiss, Christoph Busch, Welf Schröter (Hg.): Multimedia-Arbeitsplatz der Zukunft – Assistenz und Delegation mit mobilen Softwareagenten. Mössingen 2003.

[6] Welf Schröter: Soziale Kriterien für die Gestaltung algorithmischer Steuerungs- und Entscheidungssysteme zwischen Assistenz- und Delegationstechnik. Beitrag für den Fachworkshop: Ethische und soziale Kriterien zur Gestaltung algorithmischer Steuerungs- und Entscheidungssysteme. Ein Dialog zwischen dem „Forum Soziale Technikgestaltung“ (FST), dem Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO und Cyber Valley anlässlich des Jubiläums „Dreißig Jahre Forum Soziale Technikgestaltung“ (1991–2021). Stuttgart, Fraunhofer IAO, 27. Oktober 2021.

[7] Der vollständige Text zur Beschreibung der FST-Gestaltungskriterien ist zu finden in: Welf Schröter: Der mitbestimmte Algorithmus. Arbeitsweltliche Kriterien zur sozialen Gestaltung von Algorithmen und algorithmischen Entscheidungssystemen. In: Welf Schröter (Hg.): Der mitbestimmte Algorithmus. Gestaltungskompetenz für den Wandel der Arbeit. Mössingen 2019, S. 101–150.

[8] Für den Verweis auf Udo Blum danke ich Bernd Kaßebaum. Udo Blum stand der Vorgeschichte des „Forum Soziale Technikgestaltung“ Pate.

[9] Siehe dazu: http://www.blog-zukunft-der-arbeit.de/der-mitbestimmte-algorithmus-uebersicht-ueber-die-jubilaeumsveranstaltungen-dreissig-jahre-forum-soziale-technikgestaltung/

[10] Siehe: http://www.blog-zukunft-der-arbeit.de/zum-jubilaeum-dreissig-jahre-forum-soziale-technikgestaltung-grussadresse-des-dgb-bundesvorsitzenden-reiner-hoffmann-an-die-mitglieder-des-netzwerkes-forum-soziale-technikg/

Welf Schröter: Gestaltungskompetenz für Betriebsräte im Spannungsverhältnis von Assistenz- und Delegationstechnik. Erfahrungen aus dreißig Jahren „Forum Soziale Technikgestaltung“. In: Magazin erwachsenenbildung.at. Das Fachmedium für Forschung, Praxis und Diskurs. Ausgabe 44-45, 2022. In Vorbereitung. Online siehe ab 2022: https://erwachsenenbildung.at/magazin/ausgabe-44_45.

Welf Schröter: Zur notwendigen Demokratisierung des Algorithmus. Politisch-philosophische Impulse anlässlich „Dreißig Jahre Forum Soziale Technikgestaltung“. In: Irene Scherer, Welf Schröter (Hg.): Latenz – Journal für Philosophie und Gesellschaft, Arbeit und Technik, Kunst und Kultur. Ausgabe 05. Ist der Liberalismus am Ende? Mössingen: Talheimer Verlag 2021, S. 169–184.

Marco Wedel, Hannah Ulbrich, Jakob Pohlisch, Edgar Göll, André Uhl, Neslihan Iskender, Tim Polzehl, Welf Schröter, Florian Porth: Internes Crowdsourcing in Unternehmen. In: Wilhelm Bauer · Susanne Mütze-Niewöhner, Sascha Stowasser, Claus Zanker, Nadine Müller (Hrsg.): Arbeit in der digitalisierten Welt. Praxisbeispiele und Gestaltungslösungen aus dem BMBF-Förderschwerpunkt. Berlin 2021, S. 335–348.

Sabine Pfeiffer: Digitalisierung als Distributivkraft. Über das Neue am digitalen Kapitalismus. Bielefeld: transcript Verlag 2021.

Welf Schröter: Wege zum „mitbestimmten Algorithmus“. Menschenbilder als Grundlage technischer Gestaltungen von Arbeitsverhältnissen. In: Zeitschrift für Technik im Unterricht. Die praxisorientierte Informationsquelle für lebendigen Technikunterricht für die Primarstufe und Sekundarstufe. Heft tu 177 – 3/2020. Villingen-Schwenningen 2020, S. 5–15.

Welf Schröter, Irene Scherer: Warum Betriebsräte selbstbestimmte Gestaltungsansätze für den digitalen Umbau entwickeln müssen. Von der nachholenden Digitalisierung zur vorausschauenden Arbeitsgestaltung. In: Das Argument. Zeitschrift für Philosophie und Sozialwissenschaften. Ausgabe 335. Online-Kapitalismus. Umwälzungen in Produktions- und Lebensweise. Berlin 2020, S. 241–253.

Welf Schröter (Hg.): Der mitbestimmte Algorithmus. Gestaltungskompetenz für den Wandel der Arbeit. Mössingen: Talheimer Verlag 2019.

Welf Schröter: Der mitbestimmte Algorithmus. Arbeitsweltliche Kriterien zur sozialen Gestaltung von Algorithmen und algorithmischen Entscheidungssystemen. In: Welf Schröter (Hg.): Der mitbestimmte Algorithmus. Gestaltungskompetenz für den Wandel der Arbeit. Mössingen: Talheimer Verlag 2019, S. 101–150.

Markus Freitag, Claudia Häussler, Chris Purz, Welf Schröter: Chance auf einen geordneten Zukunftsprozess. Gesamtpersonalrat (GPR) überreicht OB Kuhn den Entwurf einer „Lernenden Rahmen- und Zukunfts-Dienstvereinbarung IT und TK“. In: Welf Schröter (Hg.): Der mitbestimmte Algorithmus. Gestaltungskompetenz für den Wandel der Arbeit. Mössingen: Talheimer Verlag 2019, S. 213–240.

Welf Schröter: Auf dem Weg zum „mitbestimmten Algorithmus“. Warum der Begriff „KI“ nicht als „künstliche“ sondern nur als „kleine“ oder „keine Intelligenz“ ausgeschrieben werden sollte. Eine kleine nachdenkliche Polemik. In: Irene Scherer, Welf Schröter (Hg.): Latenz – Journal für Philosophie und Gesellschaft, Arbeit und Technik, Kunst und Kultur. Ausgabe 04. Der Künstliche Mensch? Menschenbilder im 21. Jahrhundert. Mössingen: Talheimer Verlag 2019, S. 109–116.

Welf Schröter: Plädoyer für einen Perspektivwechsel im gewerkschaftlichen Gestaltungsdiskurs. In: WSI-Mitteilungen 3/2018, Seiten 247-248.

Oleg Cernavin, Welf Schröter, Sascha Stowasser (Hg.): Prävention 4.0 – Neue Perspektiven für Führung, Organisation, Sicherheit und Gesundheit im Betrieb. Wiesbaden 2017.

Welf Schröter (Hg.): Autonomie des Menschen – Autonomie der Systeme. Humanisierungspotenziale und Grenzen moderner Technologien. Mössingen: Talheimer Verlag 2017.

Welf Schröter: Selbstbestimmung zwischen „nachholender Digitalisierung und „autonomen Software-Systemen“. Wenn Betriebsräte „vorausschauende Arbeitsgestaltung“ erproben. In: Welf Schröter (Hg.): Autonomie des Menschen – Autonomie der Systeme. Humanisierungspotenziale und Grenzen moderner Technologien. Mössingen: Talheimer Verlag 2017, S. 187–256.

Welf Schröter: Identität in der Virtualität. „Virtuelle Lebenslagen“ unter „Industrie 4.0“ und Identität als neuer ganzheitlicher Gestaltungsansatz. In: Welf Schröter (Hg.): Identität in der Virtualität. Einblicke in neue Arbeitswelten und „Industrie 4.0“. Mössingen: Talheimer Verlag 2014, S. 119-136.

Welf Schröter: Das Prinzip der Delegation. Software-Agenten verändern das Wissensmanagement. In: Welf Schröter: Auf dem Weg zu neuen Arbeitswelten. Impulse des Forum Soziale Technikgestaltung. Mössingen: Talheimer Verlag 2007, S. 53–59.

Manfred Weiss, Christoph Busch, Welf Schröter (Hg.): Multimedia-Arbeitsplatz der Zukunft – Assistenz und Delegation mit mobilen Softwareagenten. Mössingen: Talheimer Verlag 2003.

Autor

  • Welf Schröter ist Mitbegründer und ehrenamtlicher Leiter des im Jahr 1991 gegründeten Personennetzwerkes „Forum Soziale Technikgestaltung“ (FST), das an den DGB Baden-Württemberg angelehnt ist. Der Autor ist Mitbegründer der „Allianz Industrie 4.0 Baden-Württemberg“, die von der dortigen Landesregierung 2015 ins Leben gerufen wurde. Er ist Mitinitiator des Organisationennetzwerkes „Sozialer Zusammenhalt in digitaler Lebenswelt“. Welf Schröter ist Gewerkschafter und selbstständig. Er ist Autor zahlreicher Aufsätze und Herausgeber mehrerer Fachbücher. Zusammen mit dem FST war und ist er Partner in vielen FuE-Projekten von BMBF, BMAS, BMWi und EU. Er war zeitweise Lehrbeauftragter an der Hochschule für Technik und Wirtschaft Aalen. Er moderiert den Blog: www.blog-zukunft-der-arbeit.de und versendet den kostenfreien Newsletter des „Forum Soziale Technikgestaltung“.

    Alle Beiträge ansehen